L'IA façon ChatGPT est largement en dessous de l'intelligence d'un chat, d'après cet expert de Meta


L’intelligence artificielle parviendra-t-elle un jour à égaler l’intelligence humaine ? On en est encore loin, mais c’est un des principaux objectifs poursuivis par toutes les entreprises du secteur, pour le pire et pour le meilleur. En attendant, l’IA actuelle a du mal à nous arriver à la cheville, d’après le scientifique en chef de Meta.

C’est la dernière course à l’échalote de la Silicon Valley : qui sera le premier à trouver la martingale de l’intelligence artificielle générale (AGI) ? L’AGI est cette IA qui possède la capacité de comprendre, d’apprendre et d’appliquer son intelligence à une vaste quantité de problèmes, de la même manière que l’intelligence humaine. Pour Jensen Huang, le CEO de Nvidia, cet horizon sera atteint dans les cinq prochaines années.

Les IA pas très futées

Il se murmure également que le congédiement (très temporaire) de Sam Altman de la tête d’OpenAI est en lien avec une découverte fondamentale en matière d’AGI. En attendant, il faudra faire avec les IA « normales » qui, d’après Yann LeCun, scientifique en chef de l’IA chez Meta, sont encore très loin de résoudre des problèmes comme nous pouvons le faire. Le spécialiste français de l’apprentissage profond a publié un article dans lequel il examine le raisonnement généraliste de l’IA et la manière dont elle se compare à celui de l’humain moyen.

L’équipe de recherche a élaboré une série de question « conceptuellement simples pour des humains, mais difficiles pour la plupart des IA avancées » : ces questions « du monde réel » nécessite un ensemble de compétences fondamentales comme le raisonnement, la gestion de la multimodalité, la navigation sur internet, et une compétence générale dans l’utilisation d’outils.

Le questionnaire a été soumis à un échantillon d’humains ainsi qu’à une IA équipée de plugins GPT-4, le grand modèle linguistique (LLM) le plus récent d’OpenAI. Un des tests consistaient par exemple à se rendre sur un site web spécifique et à répondre à une question liée à une information présente sur ce site. Les humains ont généralement fait mieux que les bots.

« En dépit de leur succès dans des tâches difficiles pour les humains, les modèles de LLM les plus performants obtiennent de faibles résultats [sur ce type de questions]. Même équipé d’outils, GPT-4 n’atteint pas un taux de réussite supérieur à 30 % pour les tâches les plus faciles, et 0 % pour les plus difficiles. Le taux de réussite moyen des répondants humains est de 92 % ».

Yann LeCun s’oppose à plusieurs de ses pairs qui considèrent que l’intelligence artificielle générale sera développée à court terme. Il estime au contraire que les capacités technologiques de l’industrie sont insuffisantes, et que les IA sont encore très loin de faire aussi bien que l’intelligence humaine. « En fait, leur absence totale de compréhension du monde physique, et leur manque de capacités de planification les placent bien en dessous du niveau d’intelligence d’un chat, sans parler de celui d’un humain », assène-il.



Source
Catégorie article Produits

Ajouter un commentaire

Commentaires

Aucun commentaire n'a été posté pour l'instant.